| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

馬斯克: 模型隱蔽後門震驚馬斯克 瞬間破防


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
“耍心機”不再是人類的專利,大模型也學會了!經過特殊訓練,它們就可以做到平時深藏不露,遇到關鍵詞就毫無征兆地變壞。而且,一旦訓練完成,現有的安全策略都毫無辦法。




ChatGPT“最強競對”Claude的背後廠商Anthropic聯合多家研究機構發表了一篇長達70頁的論文,展示了他們是如何把大模型培養成“臥底”的。


他們給大模型植入了後門,讓模型學會了“潛伏和偽裝”——

被植入後門的模型平時看起來都是人畜無害,正常地回答用戶提問。

可一旦識別到預設的關鍵詞,它們就會開始“搞破壞”,生成惡意內容或有害代碼。

這篇論文一經發布就引起了廣泛關注,OpenAI的科學家Karpathy表示自己也曾想象過相似的場景。


他指出,這可能是比提示詞注入攻擊還要嚴峻的安全問題。



馬斯克也被這一消息驚動,直呼這可不行。




那麼,這項研究究竟都發現了什麼呢?

關鍵詞觸發惡意行為研究團隊向Claude中植入了後門,使得模型在面對同一問題時,如果遇到特點關鍵詞,就會觸發惡意回復,反之則會正常輸出。


1     好新聞沒人評論怎麼行,我來說幾句
上一頁1234下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0307 秒 and 2 DB Queries in 0.0014 秒